可解释的ai(xai)研究一直蓬勃发展,但问题“$ \ textbf {向谁} $我们制作ai解释?”尚未获得足够的关注。 Xai中的不多是不可能的,仍然是何国的非AI专家,是在实践中部署AI系统的主要受众和主要利益相关者。差距很明显:在实际情况下,AI专家对AI专家的被认为是什么“解释”。因此,这种差距产生了两种不同的Xai中的预期,目标和形式的形式。我们倡导开发非技术受众的XAI方法至关重要。然后,我们提出了一个真实的案例研究,AI专家向非技术利益攸关方提供了对AI决定的非技术解释,并在受监管的行业中完成了成功的部署。然后,我们综合了从案件中汲取的经验教训,并在向非技术利益攸关方解释AI决策时,分享AI专家的建议列表。
translated by 谷歌翻译
在培训现代NLP模型中保留隐私费用。我们知道更严格的隐私保证在差异私有的随机梯度下降(DP-SGD)中通常会降低模型性能。然而,先前关于NLP中DP-SGD效率的研究是不确定的甚至反直观的。在这篇简短的论文中,我们在五个不同的“典型的”NLP任务中,对七个下游数据集进行了彻底分析了七个下游数据集,其使用现代神经模型不同的复杂性。我们表明,与解决NLP任务的标准非私人方法不同,在那里更大通常更好,隐私保存策略不会表现出胜利模式,每个任务和隐私制度都需要特殊的待遇来实现足够的绩效。
translated by 谷歌翻译